Luqano Universiteti və Cenevrə Universitetindən olan bir tədqiqatçılar komandası axtarış sistemlərinin ədalətliliyini qiymətləndirmək üçün böyük dil modellərindən - məsələn, GPT-4o kimi - istifadə üsulu hazırlayıblar. Yeni üsul axtarış nəticələrinin sıralanmasında cinsi meyilliliyi aşkar etməyə imkan verir, hətta bu meyillilik mətnin özündə birbaşa ifadə olunmasa və ənənəvi metrikalar tərəfindən görünməz qalsa belə. Bu, xüsusilə alqoritmlərin sosial baxımdan əhəmiyyətli qərarlara təsir etdiyi hallarda - məsələn, işə qəbul, tibbi məlumat seçimi və ya təhsil tövsiyələri zamanı - mühüm rol oynaya bilər. Tədqiqatçılar yeni bir metrika təqdim ediblər - CWEx (Class-wise Weighted Exposure). Bu metrika yalnız axtarış nəticələrindəki sənədlərin hansı gender kateqoriyalarına aid olduğunu deyil, həm də onların siyahıda hansı mövqedə yerləşdiklərini nəzərə alır.
Əvvəlki yanaşmalar balansı ölçmək üçün kişi və ya qadınla bağlı açar sözlərin sadə sayına əsaslanırdı. CWEx isə mətnin ümumi mənasını və tonunu başa düşə bilən dil modellərinin köməyi ilə kontekstin semantik qiymətləndirilməsindən istifadə edir. Bu yanaşma, məsələn, birbaşa sözlərlə ifadə olunmayan gizli qərəzliliyi aşkar etməyə imkan verir. Dil modellərinin mətnlərin cinsi yönümlülüyünü nə dərəcədə effektiv müəyyən etdiyini yoxlamaq üçün tədqiqatçılar bir neçə modeli - LLaMA, Qwen, Mixtral, GPT-4o və digərlərini - müqayisə ediblər. Ən yaxşı nəticəni GPT-4o göstərib. Sənədlərin 90%-dən çoxunu düzgün təsnif edərək xüsusilə "addım-addım izah" rejimində (Chain-of-Thought). Model neytral və qərəzli mətnlər arasında incə fərqləri belə müəyyən edə bilib. Təhlil göstərib ki, hətta ən inkişaf etmiş modellər belə qadınlara qarşı qərəzliliyi kişilərə qarşı olandan bir qədər daha tez və dəqiq aşkar etməyə meyllidirlər.